首页> 外文OA文献 >Explaining Recurrent Neural Network Predictions in Sentiment Analysis
【2h】

Explaining Recurrent Neural Network Predictions in Sentiment Analysis

机译:解释情绪分析中的递归神经网络预测

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

Recently, a technique called Layer-wise Relevance Propagation (LRP) was shownto deliver insightful explanations in the form of input space relevances forunderstanding feed-forward neural network classification decisions. In thepresent work, we extend the usage of LRP to recurrent neural networks. Wepropose a specific propagation rule applicable to multiplicative connections asthey arise in recurrent network architectures such as LSTMs and GRUs. We applyour technique to a word-based bi-directional LSTM model on a five-classsentiment prediction task, and evaluate the resulting LRP relevances bothqualitatively and quantitatively, obtaining better results than agradient-based related method which was used in previous work.
机译:最近,展示了一种称为分层相关传播(LRP)的技术,它以输入空间相关性的形式提供了深刻的解释,以了解前馈神经网络的分类决策。在当前的工作中,我们将LRP的用法扩展到递归神经网络。我们提出了一种适用于乘法连接的特定传播规则,因为它们出现在诸如LSTM和GRU的循环网络体系结构中。我们将技术应用于五类情感预测任务上的基于单词的双向LSTM模型,并定性和定量地评估由此产生的LRP相关性,比以前的基于梯度的相关方法获得更好的结果。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号